Ricardo Baeza-Yates: "Decir que estamos en peligro de extinción por la IA es una falta de lucidez, me preocupa más bien la falta de ética"
El referente chileno internacional y doctor en Computación radicado en EEUU, será uno de los expositores del próximo Congreso Futuro que parte el 15 de enero, donde abordará la IA responsable.
- T+
- T-
Si existe un referente chileno a nivel internacional para hablar de Inteligencia Artificial (IA) es Ricardo Baeza-Yates, quien hace años se radicó en la “meca” de la innovación en Silicon Valley, en Estados Unidos, para investigar temas como los sesgos algorítmicos y la IA responsable.
El ingeniero eléctrico y doctor en Computación, que integra diversos comités de tecnología, cofundador de la startup Theodora AI, será uno de los oradores del Congreso Futuro -que parte el 15 de enero próximo- donde abordará la visión interna de las empresas tecnológicas y cómo se puede proyectar a un uso responsable de la IA, la temática que más le interesa hoy, dijo a DF desde España.
Desde hace tres años es director de investigación del Instituto de IA Experiencial de la Universidad Northeastern en el campus de Silicon Valley, donde lidera un equipo de 20 profesionales que trabajan en IA responsable y la siguiente generación de IA generativa. Desde allí, ha desarrollado proyectos con diversas compañías -tres de las 500 más grandes del mundo- en las áreas de telecomunicaciones, finanzas y seguros, “con temas desde principios éticos hasta gobernanza”, señaló.
“Chile tiene un problema endémico: la sociedad que tiene el control económico es muy conservadora. Primero no sabe para qué sirve la IA (...) Segundo, cuesta arriesgar y pagar lo que vale (...) Tercero, los que hacen esto, son los jóvenes. La mayoría de los unicornios nacieron hace poco, las grandes empresas chilenas duermen en los laureles”.
A principios de 2023, fue uno de los 1.000 firmantes originales de una carta abierta de Future of Life Institute en la que se pedía pausar los experimentos en IA por seis meses. La misiva fue apoyada por personajes como Elon Musk y Steve Wozniak, cofundador de Apple.
“La firmé porque me lo pidió un amigo y me costó decirle que no. No estaba de acuerdo con la carta, pero sí con que ese tema se pusiera en la mesa, porque creo que muchas de las cosas que están pasando es porque no estamos pensando en los temas éticos relevantes”.
- ¿Le sorprende el vertiginoso avance de la IA desde la irrupción de ChatGPT en noviembre de 2022?
- Ha sido más rápido de lo que yo esperaba. La velocidad ha sido la sorpresa y no el avance. Pero me sorprendió más que, pese al avance, gente muy inteligente le asigna más capacidades (a los modelos de IA) de las que tienen, como decir que tiene sentimientos o que ya puede hacer cualquier tipo de análisis, aunque prediga el 99% de las cosas bien, muchas veces lo hace mal.
Nos falta un poco de lucidez mental incluso en la gente que está haciendo estos avances. Por ejemplo, que uno de los padres del aprendizaje profundo o deep learning (Geoffrey Hinton) salga de Google y diga que estamos en peligro de extinción, para mí eso es falta de lucidez. Hay gente que piensa que en cinco años vamos a llegar a la IA genérica y que si no tenemos todo bajo control podemos estar en peligro de extinción, pero yo creo que eso es una fantasía (…) Me preocupa más bien la falta de ética.
- ¿Se considera tecno-optimista o piensa que la IA es un peligro?
- O sea, yo soy tecnorealista. En estos temas he visto tantos problemas que soy más bien realista, es decir, hay peligros que no están siendo controlados bien y que tenemos que controlarlos. No son peligros futuros, ya están aquí. Ya se suicidó una persona el año pasado y ya se atropelló a una persona hace cinco. Yo digo que no estamos viendo la punta del iceberg, sino que solo el cubo de hielo de la punta del iceberg.
IA responsable y oportunidades
El experto comentó que participó en una iniciativa del Banco Interamericano del Desarrollo (BID) para ayudar a startups de la región que desarrollan IA a autoevaluarse en materia de responsabilidad y ética, donde en la mayoría de los casos “había problemas éticos, sobre todo cuando entras en los temas de salud, educación y contratación de personas”.
Añadió que también le interesa empujar el principio de legitimidad y competencia, “es lo que más falta, demostrar que tu aplicación es legítima, que es tiene que existir porque es más beneficiosa que dañina para la sociedad y luego demostrar que tiene todas las competencias para hacerlo bien. Hay muchas ideas que no son éticas o que están al límite, y que son legales porque lamentablemente no tenemos regulación en estos ámbitos”, afirmó.
- La IA responsable también se asocia a los sesgos. ¿Hay alguna fórmula para evitarlos?
- Una fórmula al 100% no, lo único que hacemos actualmente es mitigación, porque muchas veces los sesgos son invisibles hasta que alguien los descubre. Entonces, uno puede verificar los sesgos que uno conoce, pero podría ser que los sesgos fueran mucho más complicados y mientras no haya, por ejemplo, una persona discriminada que no te lo haga ver no se sabe.
Para mitigar se deben cambiar los datos de entrenamiento de los modelos para que haya un balance entre las distintas características.
Falta de talento local
- ¿Cómo ve las capacidades que tiene Chile para desarrollar y adoptar IA?
- Chile está bastante bien. Diría que junto con Brasil, Argentina, México y tal vez Colombia es líder en este tema, pero su gran problema es la masa crítica, es decir, calidad bien pero cantidad poca. Y por eso también ha habido mucha gente de otros países que ha venido con muy buena educación que llega a suplir esa falta de talento nacional.
- ¿Y cómo se revierte esta situación?
- Para retener talento hay que extender más oportunidades, es decir, sueldos más competitivos, más plazas en investigación que hay pocas. Siempre ha sido un problema retener a la gente con doctorado en Chile y aumentarlo significaría hacer programas especiales.
También hay que crear más carreras. Por ejemplo, en muchas partes ya existen carreras de ciencias de datos. Creo que muchas veces lo que hay que hacer es modernizar los programas.
- ¿Qué oportunidades trae la IA para un país como Chile? ¿Productividad?
- Sí, si uno usa la IA para complementar a la gente y aumentar las habilidades se puede aumentar la productividad muchísimo. De hecho, para mí la IA responsable debería partir por esa premisa.
En el caso de Chile se deberían buscar aplicaciones donde el país tiene una ventaja competitiva dentro del mercado mundial, por ejemplo, en minería o cambio climático.
- ¿Y cómo ve a las empresas chilenas? ¿Están reticentes a adoptarla?
- Creo que Chile tiene un problema endémico: la sociedad que tiene el control económico es muy conservadora. Primero no sabe exactamente para qué sirve esto. He estado dando charlas a tres familias chilenas con estos capitales porque querían entender el tema y me pareció que algunas lo entendían parcialmente, otras no sabían nada y eso fue interesante. Segundo, siempre cuesta arriesgar y cuesta pagar lo que vale, es decir, queremos pagar siempre menos de lo que cuesta y si no hay masa crítica es todavía más complicado. Tercero, los que hacen esto son las personas jóvenes, los que salen recién de la universidad y que no tienen miedo de hacer un emprendimiento y romper el sistema. Si ves los unicornios la mayoría son empresas que nacieron hace poco, no las empresas grandes chilenas, esas se duermen en sus laureles. Hay que arriesgar más, no es un tema de que no haya capital, es atreverse a usarlo.
- ¿La evolución de la IA amenaza el trabajo? ¿Hay que ampliar la reconversión laboral?
- Como mucha gente ha dicho: la primera persona que va a amenazar tu trabajo va a ser otra persona que sabe de esta tecnología. Así que lo primero que diría es que no hay que reconvertirse, hay que aprender a usarlas para aumentar tu productividad, eso es lo primero. Y segundo, creo que hay que empezar a usar la IA en todas las empresas para complementar las capacidades de las personas y no para reemplazarlas.
Regulación y proyecciones
- ¿Se debe regular la IA? En Chile hay un proyecto en la Cámara de Diputados, el Gobierno anunció indicaciones y el Senado está en un proceso prelegislativo…
- Conozco bien la propuesta porque me invitaron a hablar. Primero lo que hay que regular es el uso de la IA, es importante porque no se regula la tecnología, no tiene sentido hacerlo. El ejemplo extremo es regular el uso del martillo para que nadie mate a una persona dándole en la cabeza. Todas las tecnologías tienen su lado positivo y negativo. Nunca hemos regulado el uso de tecnología en el pasado.
El problema es que quisieron ser más ambiciosos y regular todo de golpe. Esta regulación propuesta en Chile está muy basada en la primera versión de lo que hizo la Unión Europea en 2021 y tiene varios problemas. El primero es que solo regula la IA y cualquiera que diga que no usa IA va a quedar fuera de regulación, por eso en otras partes se habla de sistemas algorítmicos o automatizados.
Segundo es que hay varias cosas que no se pueden cumplir (…) yo todo esto lo dije en la Cámara de Diputados y espero que me hayan escuchado.
Mi regulación de la IA sería bien simple. Primero, muéstrame un análisis de impacto ético que muestre que esto beneficia más a la sociedad más que la daña. Y segundo, que la IA no reemplazará ningún trabajo de personas, sino que las ayudará a hacerlo mejor. Con esas dos cosas ya se arreglan el 90% de los problemas de la IA.
- ¿Qué pasará con la IA en 2024? ¿Se seguirá potenciando la IA generativa? ¿Habrá algún avance en IA general?
- Es difícil. Una cosa es lo que esperaría y otra es lo que va a pasar. Pero yo esperaría, por ejemplo, más lucidez, pensar y sopesar más las cosas. Ya jugamos un año con la IA generativa, veamos ahora dónde lo podemos aplicar y dónde no.
También esperaría ver más regulaciones, en Estados Unidos serán regulaciones estatales y van a aparecer regulaciones nacionales y algunas globales. Espero que eso signifique que va a haber más control del tipo de cosas en que se puede o no aplicar. En algún momento creo que van a tener que prohibirse algunos tipos de aplicaciones.